-
Définition
\(\triangleright\) Définition de l'entropie statistique
On définit l'entropie statistique par:
$$S(\{P_M\})={{-k\sum_{l=1}^{M}P_lln(P_l)}}$$
Avec \(P_lln(P_l)=0\) si \(P_l=0\)
Cette entropie statistique mesure le manque d'information sur le système.
Propriétés
\(\triangleright\) Propriétés de l'entropie statistique
- \(S(\{P_n\})\geq {{0}}\)
- \(S\) est totalement symétrique: \(S(P_1,..P_i,..P_j)=S(P_1,...P_j,..P_i)\)
- \(S\) possède un minimum qui est \(0\)
- Le maximum se trouve grâce à la Méthode des multiplicateurs de Lagrange: \(S_{max}={{k.ln(N)}}\)
\(\triangleright\) Entropie statistique d'une réunion de systèmes isolés
L'entropie d'une réunion de systèmes isolés est simplement la somme des entropies:
$$S_T={{\sum_iS_i}}$$
Ensemble microcanonique
\(\triangleright\) Entropie statistique microcanonique
L'entropie statistique microcanonique à l'équilibre est définit comme:
$$S^*={{-k\sum_lP_l^*ln(P_l^*)}}$$
Avec:- \(P^*_l=\begin{cases}\frac 1\Omega\quad si\,\,\,\,\, 'conditon' \\ 0\quad sinon\end{cases}\)
- \(\Omega\): le nombre de Micro-états accessibles
Ou encore:
$$S^*={{kln(\Omega)}}$$
\(\triangleright\) Remarques sur l'entropie microcanonique
- A l'équilibre, l'entropie microcanonique d'un système isolé est maximale (Analogie: Second principe de la thermodynamique).
- L'évolution spontanée d'un système isolé s'accompagne d'une augmentation de son entropie microcanonique.
Ensemble canonique
\(\triangleright\) Entropie statistique d'un ensemble canonique
L'entropie statistique d'un ensemble canonique prend la forme:
$$S^c={{\frac{\langle E\rangle _c-F}{T} }}$$
Avec:
Ensemble grand canonique
\(\triangleright\) Entropie statistique d'un ensemble grand canonique
L'entropie statistique d'un ensemble grand canonique prend la forme:
$$S^G={{-\left(\frac{\partial J}{\partial T}\right)_{\mu,V,x} }}$$
Avec: